home *** CD-ROM | disk | FTP | other *** search
/ SGI Varsity Update 1998 August / SGI Varsity Update 1998 August.iso / dist / dist6.4 / mpi.idb / usr / share / catman / u_man / cat1 / mpirun.z / mpirun
Text File  |  1998-07-29  |  26KB  |  493 lines

  1. mpirun(1)                                             Last changed: 5-18-98
  2.  
  3.  
  4. NNAAMMEE
  5.      mmppiirruunn - Runs MPI programs
  6.  
  7. SSYYNNOOPPSSIISS
  8.      mmppiirruunn [[_g_l_o_b_a_l__o_p_t_i_o_n_s]] _e_n_t_r_y [[:_e_n_t_r_y ...]]
  9.  
  10. IIMMPPLLEEMMEENNTTAATTIIOONN
  11.      UNICOS, UNICOS/mk, and IRIX systems
  12.  
  13.      To launch MPI programs on IRIX and UNICOS systems, Array Services
  14.      software must be running.
  15.  
  16.      Running MPI jobs in the background is not supported on IRIX and UNICOS
  17.      systems. For more information, see the NOTES section.
  18.  
  19. SSTTAANNDDAARRDDSS
  20.      This release implements the MPI 1.2 standard, as documented by the MPI
  21.      Forum in the spring 1997 release of _M_P_I: _A _M_e_s_s_a_g_e _P_a_s_s_i_n_g _I_n_t_e_r_f_a_c_e
  22.      _S_t_a_n_d_a_r_d.
  23.  
  24.      The MPI implementation for UNICOS/mk systems is derived from the
  25.      implementation of MPI for UNICOS MAX systems developed at Edinburgh
  26.      Parallel Computing Centre.  The software is supplied to Cray Research
  27.      under license from the University of Edinburgh.
  28.  
  29. DDEESSCCRRIIPPTTIIOONN
  30.      The mmppiirruunn command is the primary job launcher for the Message Passing
  31.      Toolkit (MPT) implementations of MPI. The mmppiirruunn command must be used
  32.      when a user wants to run an MPI application on IRIX or UNICOS systems
  33.      (on IRIX systems, XMPI can be used in place of mmppiirruunn).  On IRIX or
  34.      UNICOS systems, you can run an application on the local host only (the
  35.      host from which you issued mmppiirruunn) or distribute it to run on any
  36.      number of hosts that you specify.
  37.  
  38.      Note:  Use of the mmppiirruunn command is optional for UNICOS/mk systems and
  39.      currently supports only the --nnpp option.
  40.  
  41.      Several MPI implementations available today use a job launcher called
  42.      mmppiirruunn, and because this command is not part of the MPI standard, each
  43.      implementation's mmppiirruunn command differs in both syntax and
  44.      functionality.
  45.  
  46.      The mmppiirruunn command accepts the following operands:
  47.  
  48.      The _g_l_o_b_a_l__o_p_t_i_o_n_s operand applies to all MPI executable files on all
  49.      specified hosts. Global options must be specified before local options
  50.      specific to a host (entry operands).  The following global options are
  51.      supported:
  52.  
  53.      OOppttiioonn                   DDeessccrriippttiioonn
  54.  
  55.      --aa[[rrrraayy]] _a_r_r_a_y__n_a_m_e      Specifies the array to use when launching an
  56.                               MPI application.  By default, Array Services
  57.                               uses the default array specified in the Array
  58.                               Services configuration file,
  59.                               //uussrr//lliibb//aarrrraayy//aarrrraayydd..ccoonnff.
  60.  
  61.      --ccpprr                     (Valid only on IRIX systems)  Allows users to
  62.                               checkpoint or restart MPI jobs that consist
  63.                               of a single executable file running on a
  64.                               single system.  The absence of any host names
  65.                               in the mmppiirruunn command indicates that a job is
  66.                               running on a single system.  For example, the
  67.                               following command is valid:
  68.  
  69.                                      mpirun -cpr -np 2 ./a.out >&1/dev/null
  70.  
  71.                               The following commands are not valid.
  72.  
  73.                         mpirun -cpr 2 ./a.out : 3 ./b.out
  74.                         mpirun -cpr hosta -np 2 ./a.out>out 2>&1 </dev/null
  75.  
  76.                               The first one is not valid because it
  77.                               consists of more than one executable file
  78.                               (aa..oouutt and bb..oouutt).  The second one is not
  79.                               valid because even if submitted from hhoossttaa,
  80.                               it specifies a host name.
  81.  
  82.                               For interactive users, the preferred method
  83.                               of checkpointing the job is by AASSHH.  This
  84.                               ensures that all of the user's processes
  85.                               specified in the mmppiirruunn command, plus daemons
  86.                               associated with the job, will be
  87.                               checkpointed.  You can use the aarrrraayy(1)
  88.                               command to find the AASSHH of a job.
  89.                               Interactive users should also note that
  90.                               ssttddiinn, ssttddoouutt, and ssttddeerrrr should not be
  91.                               connected to the terminal when this option is
  92.                               being used.
  93.  
  94.                               Use of this option requires Array Services
  95.                               3.1 or later.
  96.  
  97.      --dd[[iirr]] _p_a_t_h__n_a_m_e         Specifies the working directory for all
  98.                               hosts.  In addition to normal path names, the
  99.                               following special values are recognized:
  100.  
  101.                                    ..    Translates into the absolute path
  102.                                         name of the user's current working
  103.                                         directory on the local host. This
  104.                                         is the default.
  105.  
  106.                                    ~~    Specifies the use of the value of
  107.                                         $$HHOOMMEE as it is defined on each
  108.                                         machine. In general, this value can
  109.                                         be different on each machine.
  110.  
  111.      --ff[[iillee]] _f_i_l_e__n_a_m_e        Specifies a text file that contains mmppiirruunn
  112.                               arguments.
  113.  
  114.      --hh[[eellpp]]                  Displays a list of options supported by the
  115.                               mmppiirruunn command.
  116.  
  117.      --mmiisseerr                   (Valid only on IRIX systems)  Allows MPI jobs
  118.                               that run on a single system to be submitted
  119.                               to mmiisseerr. The absence of any host names in
  120.                               the mmppiirruunn command indicates that a job is
  121.                               running on a single system, and thus can be
  122.                               submitted to mmiisseerr.  For example, the
  123.                               following command is valid:
  124.  
  125.           miser_submit -q _q_u_e_u_e -f _f_i_l_e mpirun -miser 2 ./a.out : 3 ./b.out
  126.  
  127.                               The following command is not valid, even if
  128.                               submitted on hhoossttaa:
  129.  
  130.                 miser_submit -q _q_u_e_u_e -f _f_i_l_e mpirun -miser hosta 2 ./a.out
  131.  
  132.                               Use of this option requires Array Services
  133.                               3.1 or later.
  134.  
  135.      --pp[[rreeffiixx]] _p_r_e_f_i_x__s_t_r_i_n_g  Specifies a string to prepend to each line of
  136.                               output from ssttddeerrrr and ssttddoouutt for each MPI
  137.                               process. Some strings have special meaning
  138.                               and are translated as follows:
  139.  
  140.                               * %%gg translates into the global rank of the
  141.                                 process producing the output. (This is
  142.                                 equivalent to the rank of the process in
  143.                                 MMPPII__CCOOMMMM__WWOORRLLDD.)
  144.  
  145.                               * %%GG translates into the number of processes
  146.                                 in MMPPII__CCOOMMMM__WWOORRLLDD.
  147.  
  148.                               * %%hh translates into the rank of the host on
  149.                                 which the process is running, relative to
  150.                                 the mmppiirruunn command line.
  151.  
  152.                               * %%HH translates into the total number of
  153.                                 hosts in the job.
  154.  
  155.                               * %%ll translates into the rank of the process
  156.                                 relative to other processes running on the
  157.                                 same host.
  158.  
  159.                               * %%LL translates into the total number of
  160.                                 processes running on the host.
  161.  
  162.                               * %%@@ translates into the name of the host on
  163.                                 which the process is running.
  164.  
  165.      Note:  For UNICOS implementations:  Strings that specify on a global
  166.      or local MPI process rank are not supported with the shared memory
  167.      version of MPI (--nntt) on UNICOS systems.  This means that of the
  168.      predefined strings available, %%gg and %%ll are not supported with --nntt.
  169.  
  170.      For examples of the use of these strings, first consider the following
  171.      code fragment:
  172.  
  173.           main(int argc, char **argv)
  174.           {
  175.              MPI_Init(&argc, &argv);
  176.  
  177.              printf("Hello world\n");
  178.  
  179.              MPI_Finalize();
  180.           }
  181.  
  182.      Depending on how this code is run, the results of running the mmppiirruunn
  183.      command will be similar to those in the following examples:
  184.  
  185.           %% mmppiirruunn --nnpp 22 aa..oouutt
  186.           HHeelllloo wwoorrlldd
  187.           HHeelllloo wwoorrlldd
  188.  
  189.  
  190.           %% bbmmppiirruunn --pprreeffiixx "">>"" --nnpp 22 aa..oouutt
  191.           >>HHeelllloo wwoorrlldd
  192.           >>HHeelllloo wwoorrlldd
  193.  
  194.  
  195.           %% mmppiirruunn --pprreeffiixx ""%%gg"" 22 aa..oouutt
  196.           00HHeelllloo wwoorrlldd
  197.           11HHeelllloo wwoorrlldd
  198.  
  199.  
  200.           %% mmppiirruunn --pprreeffiixx ""[[%%gg]] "" 22 aa..oouutt
  201.           [[00]] HHeelllloo wwoorrlldd
  202.           [[11]] HHeelllloo wwoorrlldd
  203.  
  204.  
  205.           %% mmppiirruunn --pprreeffiixx ""<<pprroocceessss %%gg oouutt ooff %%GG>> "" 44 aa..oouutt
  206.           <<pprroocceessss 11 oouutt ooff 44>> HHeelllloo wwoorrlldd
  207.           <<pprroocceessss 00 oouutt ooff 44>> HHeelllloo wwoorrlldd
  208.           <<pprroocceessss 33 oouutt ooff 44>> HHeelllloo wwoorrlldd
  209.           <<pprroocceessss 22 oouutt ooff 44>> HHeelllloo wwoorrlldd
  210.  
  211.  
  212.           %% mmppiirruunn --pprreeffiixx ""%%@@:: "" hhoossttaa,,hhoossttbb 11 aa..oouutt
  213.           hhoossttaa:: HHeelllloo wwoorrlldd
  214.           hhoossttbb:: HHeelllloo wwoorrlldd
  215.  
  216.  
  217.           %% mmppiirruunn --pprreeffiixx ""%%@@ ((%%ll oouutt ooff %%LL)) %%gg:: "" hhoossttaa 22,, hhoossttbb 33 aa..oouutt
  218.           hhoossttaa ((00 oouutt ooff 22)) 00:: HHeelllloo wwoorrlldd
  219.           hhoossttaa ((11 oouutt ooff 22)) 11:: HHeelllloo wwoorrlldd
  220.           hhoossttbb ((00 oouutt ooff 33)) 22:: HHeelllloo wwoorrlldd
  221.           hhoossttbb ((11 oouutt ooff 33)) 33:: HHeelllloo wwoorrlldd
  222.           hhoossttbb ((22 oouutt ooff 33)) 44:: HHeelllloo wwoorrlldd
  223.  
  224.  
  225.           %% mmppiirruunn --pprreeffiixx ""%%@@ ((%%hh oouutt ooff %%HH)):: "" hhoossttaa,,hhoossttbb,,hhoossttcc 22 aa..oouutt
  226.           hhoossttaa ((00 oouutt ooff 33)):: HHeelllloo wwoorrlldd
  227.           hhoossttbb ((11 oouutt ooff 33)):: HHeelllloo wwoorrlldd
  228.           hhoossttcc ((22 oouutt ooff 33)):: HHeelllloo wwoorrlldd
  229.           hhoossttaa ((00 oouutt ooff 33)):: HHeelllloo wwoorrlldd
  230.           hhoossttcc ((22 oouutt ooff 33)):: HHeelllloo wwoorrlldd
  231.           hhoossttbb ((11 oouutt ooff 33)):: HHeelllloo wwoorrlldd
  232.  
  233.  
  234.      --vv[[eerrbboossee]]               Displays comments on what mmppiirruunn is doing
  235.                               when launching the MPI application.
  236.  
  237.      The _e_n_t_r_y operand describes a host on which to run a program, and the
  238.      local options for that host.  You can list any number of entries on
  239.      the mmppiirruunn command line.
  240.  
  241.      In the common case (Same Program Multiple Data (SPMD)), in which the
  242.      same program runs with identical arguments on each host, usually only
  243.      one entry needs to be specified.
  244.  
  245.      Each entry has the following components:
  246.  
  247.      * One or more host names (not needed if you run on the local host)
  248.  
  249.      * Number of processes to start on each host
  250.  
  251.      * Name of an executable program
  252.  
  253.      * Arguments to the executable program (optional)
  254.  
  255.      An entry has the following format:
  256.  
  257.           _h_o_s_t__l_i_s_t _l_o_c_a_l__o_p_t_i_o_n_s _p_r_o_g_r_a_m _p_r_o_g_r_a_m__a_r_g_u_m_e_n_t_s
  258.  
  259.      The _h_o_s_t__l_i_s_t operand is either a single host (machine name) or a
  260.      comma-separated list of hosts on which to run an MPI program.
  261.  
  262.      The _l_o_c_a_l__o_p_t_i_o_n_s operand contains information that applies to a
  263.      specific host list. The following local options are supported:
  264.  
  265.      OOppttiioonn                        DDeessccrriippttiioonn
  266.  
  267.      --ff[[iillee]] _f_i_l_e__n_a_m_e             Specifies a text file that contains
  268.                                    mmppiirruunn arguments (same as
  269.                                    _g_l_o_b_a_l__o_p_t_i_o_n_s.)  For more details, see
  270.                                    the Using a File For mmppiirruunn Arguments
  271.                                    subsection on this man page.
  272.  
  273.      --nnpp _n_p                        Specifies the number of processes on
  274.                                    which to run. (UNICOS/mk systems support
  275.                                    only this option.)
  276.  
  277.      --nntt _n_t                        On UNICOS systems, specifies the number
  278.                                    of tasks on which to run in a
  279.                                    multitasking or shared memory
  280.                                    environment. On IRIX systems, this
  281.                                    option behaves the same as --nnpp.
  282.  
  283.      The _p_r_o_g_r_a_m _p_r_o_g_r_a_m__a_r_g_u_m_e_n_t_s operand specifies the name of the
  284.      program that you are running and its accompanying options.
  285.  
  286.    UUssiinngg aa FFiillee ffoorr mmppiirruunn AArrgguummeennttss
  287.      Because the full specification of a complex job can be lengthy, on
  288.      UNICOS or IRIX systems, you can enter mmppiirruunn arguments in a file and
  289.      use the --ff option to specify the file on the mmppiirruunn command line, as
  290.      in the following example:
  291.  
  292.           mpirun -f _m_y__a_r_g_u_m_e_n_t_s
  293.  
  294.      The arguments file is a text file that contains argument segments.
  295.      White space is ignored in the arguments file, so you can include
  296.      spaces and newline characters for readability. An arguments file can
  297.      also contain additional --ff options.
  298.  
  299.    LLaauunncchhiinngg PPrrooggrraammss oonn tthhee LLooccaall HHoosstt
  300.      For testing and debugging, it is often useful to run an MPI program on
  301.      the local host only without distributing it to other systems. To run
  302.      the application locally, enter mmppiirruunn with the --nnpp or --nntt argument.
  303.      Your entry must include the number of processes to run and the name of
  304.      the MPI executable file.
  305.  
  306.      The following command starts three instances of the application mmtteesstt,
  307.      which is passed an arguments list (arguments are optional):
  308.  
  309.           mpirun -np 3 mtest 1000 "arg2"
  310.  
  311.      You are not required to use a different host in each entry that you
  312.      specify on the mmppiirruunn command.  You can launch a job that has two
  313.      executable files on the same host.  On a UNICOS system, the following
  314.      example uses a combination of shared memory and TCP.  On an IRIX
  315.      system, both executable files use shared memory.
  316.  
  317.           mpirun host_a -np 6 a.out : host_a -nt 4 b.out
  318.  
  319.    RRuunnnniinngg PPrrooggrraammss iinn SShhaarreedd MMeemmoorryy MMooddee
  320.      For running programs in MPI shared memory mode on a UNICOS or IRIX
  321.      single host, the format of the mmppiirruunn command is as follows:
  322.  
  323.           mpirun -nt [_n_t] _p_r_o_g_n_a_m_e
  324.  
  325.      The --nntt option specifies the number of tasks for shared memory MPI,
  326.      and can be used on UNICOS systems only if you have compiled and linked
  327.      your program to preserve the message passing assumption that data is
  328.      private to each task.  This is done by using the --hhttaasskkpprriivvaattee $$LLIIBBCCMM
  329.      or --aattaasskkccoommmmoonn options.  (For further information on compiling and
  330.      linking for shared memory MPI on UNICOS systems, see the MMPPII(1) man
  331.      page.)  A single UNIX process is run with multiple tasks representing
  332.      MPI processes.  The _p_r_o_g_n_a_m_e operand specifies the name of the program
  333.      that you are running and its accompanying options.
  334.  
  335.      The --nntt option to mmppiirruunn is supported on IRIX systems for consistency
  336.      across platforms. However, since the default mode of execution on a
  337.      single IRIX system is to use shared memory, the option behaves the
  338.      same as if you specified the --nnpp option to mmppiirruunn.  The following
  339.      example runs ten instances of aa..oouutt in shared memory mode on hhoosstt__aa:
  340.  
  341.           mpirun -nt 10 a.out
  342.  
  343.    UUssiinngg tthhee mmppiirruunn CCoommmmaanndd oonn UUNNIICCOOSS//mmkk SSyysstteemmss
  344.      The mmppiirruunn command has been provided for consistency of use among
  345.      IRIX, UNICOS, and UNICOS/mk systems. Use of this command is optional,
  346.      however, on UNICOS/mk systems. If your program was built for a
  347.      specific number of PEs, the number of PEs specified on the mmppiirruunn
  348.      command line must match the number that was built into the program. If
  349.      it does not, mmppiirruunn issues an error message.
  350.  
  351.      The following example shows how to invoke the mmppiirruunn command on a
  352.      program that was built for four PEs:
  353.  
  354.           mpirun -np 4 a.out
  355.  
  356.    EExxeeccuuttiinngg UUNNIICCOOSS//mmkk PPrrooggrraammss DDiirreeccttllyy
  357.      Instead of using the mmppiirruunn command, you can choose to launch your MPI
  358.      programs on UNICOS/mk systems directly. If your UNICOS/mk program was
  359.      built for a specific number of PEs, you can execute it directly, as
  360.      follows:
  361.  
  362.           ./a.out
  363.  
  364.      If your program was built as a malleable executable file (the number
  365.      of PEs was not fixed at build time, and the --XXmm option was used
  366.      instead), you can execute it with the mmpppprruunn command. The following
  367.      example runs a program on a partition with four PEs:
  368.  
  369.           mpprun -n 4 a.out
  370.  
  371.    LLaauunncchhiinngg aa DDiissttrriibbuutteedd PPrrooggrraamm
  372.      You can use mmppiirruunn to launch a UNICOS or IRIX program that consists of
  373.      any number of executable files and processes and distribute it to any
  374.      number of hosts. A host is usually a single Origin, CRAY J90, or
  375.      CRAY T3E system, or can be any accessible computer running Array
  376.      Services software. Array Services software runs on IRIX and UNICOS
  377.      systems and must be running to launch MPI programs. For available
  378.      nodes on systems running Array Services software, see the
  379.      //uussrr//lliibb//aarrrraayy//aarrrraayydd..ccoonnff file.
  380.  
  381.      You can list multiple entries on the mmppiirruunn command line. Each entry
  382.      contains an MPI executable file and a combination of hosts and process
  383.      counts for running it. This gives you the ability to start different
  384.      executable files on the same or different hosts as part of the same
  385.      MPI application.
  386.  
  387.      The following examples show various ways to launch an application that
  388.      consists of multiple MPI executable files on multiple hosts.
  389.  
  390.      The following example runs ten instances of the aa..oouutt file on hhoosstt__aa:
  391.  
  392.           mpirun host_a -np 10 a.out
  393.  
  394.      When specifying multiple hosts, the --nnpp or --nntt option can be omitted
  395.      with the number of processes listed directly.  On UNICOS systems, if
  396.      you omit the --nnpp or --nntt option, mmppiirruunn assumes --nnpp and defaults to TCP
  397.      for communication. The following example launches ten instances of
  398.      ffrreedd on three hosts.  ffrreedd has two input arguments.
  399.  
  400.           mpirun host_a, host_b, host_c 10 fred arg1 arg2
  401.  
  402.      The following example launches an MPI application on different hosts
  403.      with different numbers of processes and executable files, using an
  404.      array called tteesstt:
  405.  
  406.           mpirun -array test host_a 6 a.out : host_b 26 b.out
  407.  
  408.      The following example launches an MPI application on different hosts
  409.      out of the same directory on both hosts:
  410.  
  411.           mpirun -d /tmp/mydir host_a 6 a.out : host_b 26 b.out
  412.  
  413.    JJoobb CCoonnttrrooll
  414.      It is possible to terminate, suspend, and/or resume an entire MPI
  415.      application (potentially running across multiple hosts) by using the
  416.      same control characters that work for serial programs.  For example,
  417.      sending a SSIIGGIINNTT signal to mmppiirruunn terminates all processes in an MPI
  418.      job. Similarly, sending a SSIIGGTTSSTTPP signal to mmppiirruunn suspends an MPI job
  419.      and sending a SSIIGGCCOONNTT signal resumes a job.
  420.  
  421.    TTrroouubblleesshhoooottiinngg
  422.      Problems you encounter when launching MPI jobs will typically result
  423.      in a ccoouulldd nnoott rruunn eexxeeccuuttaabbllee error message from mmppiirruunn. There are
  424.      many possible causes for this message, including (but not limited to)
  425.      the following reasons:
  426.  
  427.      * The .. is missing from the user's search path. This problem most
  428.        commonly occurs when the --nnpp syntax is used.
  429.  
  430.      * No permission has been granted to launch processes on remote
  431.        machine(s).  You might need to set ~~//..rrhhoossttss appropriately.
  432.  
  433.      * The working directory is defaulting to $$HHOOMMEE instead of to $$PPWWDD on
  434.        remote machines; use either MMPPII__DDIIRR or the --dd option.
  435.  
  436.      * llooccaallhhoosstt does not appear in the //eettcc//hhoossttss..eeqquuiivv file (required for
  437.        --nnpp syntax).
  438.  
  439.      * The Array Services daemon (aarrrraayydd) has been incorrectly configured;
  440.        use aasscchheecckk to test your configuration.
  441.  
  442.      * In general, if aarrsshheellll fails, mmppiirruunn usually fails as well.
  443.  
  444.    LLiimmiittaattiioonnss
  445.      The following practices will break the mmppiirruunn parser:
  446.  
  447.      * Using machine names that are numbers (for example, 33, 112277, and so
  448.        on)
  449.  
  450.      * Using MPI applications whose names match mmppiirruunn options (for
  451.        example, --dd, --ff, and so on)
  452.  
  453.      * Using MPI applications that use a colon (::) in their command-lines.
  454.  
  455. NNOOTTEESS
  456.      Running MPI jobs in the background is not supported on IRIX and UNICOS
  457.      systems.
  458.  
  459.      The mmppiirruunn process is still connected to the tty when a job is placed
  460.      in the background.  One of the things that mmppiirruunn polls for is input
  461.      from ssttddiinn.  If it happens to be polling for ssttddiinn when a user types
  462.      in a window after putting an MPI job in the background, the job will
  463.      abort upon receiving a SSIIGGTTTTIINN signal.  This behavior is intermittent,
  464.      depending on whether mmppiirruunn happens to be looking for and sees any
  465.      ssttddiinn input.  Currently, there is no solution to this restriction, but
  466.      for a job that does not use ssttddiinn, you can use the following
  467.      workaround to launch the job:
  468.  
  469.      To run an MPI job in the background, use a shell script to launch the
  470.      MPI job, then exit the invoked shell.  This will exit the parent shell
  471.      and leave the child processes (mmppiirruunn and subsequently, the MPI
  472.      processes) running. Since the parent is gone, there will be no process
  473.      group associated with mmppiirruunn, and it will be cut off from the tty.
  474.  
  475.      Example:
  476.  
  477.           % cat runscript
  478.           #!/bin/sh
  479.           mpirun -np 2 ./a.out > out &
  480.           exit
  481.  
  482. RREETTUURRNN VVAALLUUEESS
  483.      On exit, mmppiirruunn returns a status of zero unless it detected a problem,
  484.      in which case it returns a nonzero status (currently, all values are
  485.      1, but this might change in the future).
  486.  
  487. SSEEEE AALLSSOO
  488.      mmppii(1), mmpppprruunn(1), mmpptt__iinnttrroo(1)
  489.  
  490.      tteerrmmiioo(7)
  491.  
  492.      This man page is available only online.
  493.